然而,当使用ReLU激活函数时,可能会遇到训练缓慢的问题,尤其是在网络的早期层,因为梯度可能会在网络的反向传播过程中消失(即,梯度变为非常小的值,接近零)。LeakyReLU是一种修正线性单元(Rectifie...
浏览 58 次 标签: 2024-04-05 问AI: 介绍一下深度学习中的Leaky ReLU函数